其他
什么是可解释机器学习?
点击上方蓝字
关注我们
(本文阅读时间:4分钟)
今天我们将为大家介绍,什么是机器学习的可解释性分析以及学习可解释机器学习有什么用。
微软MVP实验室研究员
//
张子豪
什么是可解释 AI
现代的机器学习和 AI,属于“统计学习”,通过大量的数据和经验训练算法,拟合出决策边界和数据分布。
比如识别猫狗的神经网络,输入大量标注好类别的图像,通过神经网络算法,在高维空间拟合非线性、非凸的数据分布和决策边界。并且随着神经网络越来越深,参数越来越多,数据量越来越大。AI 变得越来越像黑盒子。人类根本不清楚它内部的脑回路,到底是怎么做出决策的。AI 到底学习到了哪些特征,是不是符合人类的直觉和常识。AI 什么时候 work,什么时候不 work。AI 到底有没有过拟合,如何进一步改进它和数据集。特别是医疗、无人驾驶、金融这些人命关天的领域,你愿不愿意把身家性命托付给 AI。可解释性分析,就是研究如何打开 AI 的黑箱子,洞悉 AI 的脑回路和注意力,进而解释它、了解它、改进它、信赖它。知其然,也知其所以然。
可解释 AI 有什么用?
研究 AI 的脑回路,就是研究 AI 的本质。可解释分析是 AI 的通用研究方法,无论传统数据挖掘、计算机视觉、自然语言处理、强化学习,都可以和可解释性分析交叉融合,作为研究工作的核心创新点。包括但不限于:大模型、缺陷异常检测、细粒度分类、决策 AI 和强化学习、图神经网络、AI 纠偏、AI4Science、Machine Teaching、对抗样本、可信计算。
对 YOLO 目标检测做可解释性分析:
Datawhale 开源学习计划
可解释机器学习系列公开课,包含 AI 可解释性分析领域的导论、算法综述、经典论文精读、代码实战、前沿讲座。由 B 站知名 UP 主“同济子豪兄”主讲,课程视频免费开源。
开源地址:
https://github.com/TommyZihao/zihao_course/tree/main/XAI
更多开源教程:
https://github.com/datawhalechina
*未经授权请勿私自转载此文章及图片。
微软最有价值专家(MVP)
https://mvp.microsoft.com/zh-cn
谢谢你读完了本文!欢迎在评论区留言分享你的想法,并且转发到朋友圈。
长按识别二维码
关注微软开发者MSDN
喜欢记得“分享、点赞、在看”哦~